685 research outputs found

    The NEXT path to neutrino inverse hierarchy

    Get PDF
    De todas las partículas que componen el universo, quizás la más común de ellas sea también la más misteriosa, el neutrino. Ahora mismo miles de millones de estas partículas nos atraviesan sin percibirlo, y detectar una sola de ellas necesita de enormes detectores enterrados a gran profundidad. Postuladas por primera vez por Wolfgang Pauli en 1930, fueron bautizadas en 1934 como ”pequeños neutrones” por Enrico Fermi, aludiendo a dos de sus principales características: su pequeña masa y su ausencia de carga eléctrica. A mediados de los años 70, los neutrinos fueron incluidos en el Modelo Estándar bajo las premisas de: carecer de masa y carga eléctrica, experimentar únicamente la fuerza nuclear débil, ser los neutrinos distintos de sus antipartículas y la existencia de 3 familias con números leptónicos conservados por separado. Sin embargo, los experimentos de oscilaciones de neutrinos llevados a cabo durante las últimas décadas han demostrado que los neutrinos tienen masa y se mezclan, abriendo un nuevo campo en la física más allá del Modelo Estándar. Una de las maneras de acomodar estas masas en la teoría es que los neutrinos podrían ser partículas de Majorana, es decir, idénticas a sus antipartículas, al contrario que el resto de fermiones, y violar la conservación del número leptónico. De ser así, los neutrinos pudieran tener relación con la asimetría materia-antimateria del universo vía leptogénesis, así como ser una elegante explicación de la pequeñez de su masa a través del mecanismo ”see-saw”. Ante esta situación, es fácil entender que los neutrinos sean en la actualidad uno de los campos de moda de la investigación en física a nivel mundial y multitud de experimentos traten de arrojar luz sobre su naturaleza. El método más sensible para establecer la naturaleza de los neutrinos es la búsqueda de una hipotética y extremadamente rara transición nuclear llamada desintegración doble beta sin emisión de neutrinos (0νββ) en el que un núcleo de número atómico Z y número másico A se transforma en su isóbaro de número atómico Z + 2 emitiendo únicamente dos electrones: X (A,Z) → X (A,Z+2) + e− + e− Aunque la versión del proceso que incluye emisión de neutrinos ha sido observada y medida en varios isótopos, la versión sin neutrinos del proceso aún no lo ha sido a día de hoy. El mecanismo físico más simple que lo describe es el intercambio virtual de un neutrino ligero de tipo Majorana, de manera que toda la energía disponible en la desintegración (Qββ) se reparta entre los dos electrones emitidos. Precisamente ésta, sería la señal característica del proceso y por tanto el objetivo de todo experimento que pretenda encontrarlo. La semivida de este proceso llevaría implícita una medida indirecta de la masa de los neutrinos. Los experimentos actuales han seguido distintas aproximaciones tecnológicas buscando la mejor resolución energética y la menor actividad de ruido posible que maximicen su sensibilidad. Las técnicas más prometedoras son los bolómetros, las TPCs, los semiconductores y los centelleadores. Precisamente, a este último tipo pertenece Kamland-ZEN, experimento japonés que haciendo uso de 136Xe disuelto en centelleador líquido, ha establecido el límite más estricto hasta la fecha a la semivida de la desintegración 0νββ de 1.07 × 10^26 años, con un rango de masa efectiva del neutrino Majorana entre 61 - 165 meV. Es importante recalcar aquí lo realmente improbable que es el proceso, con una semi-vida 17 órdenes de magnitud mayor que la propia edad del universo y que convierte su búsqueda en un gran desafío físico y tecnológico. La colaboración NEXT propone el detector NEXT-100 para la búsqueda de desintegraciones 0νββ, cuya sensibilidad es el objeto de estudio de esta tesis. Se trata de una TPC electroluminiscente capaz de albergar 100 kg de gas xenón a 15 bares de presión enriquecido al 91% en 136Xe, que será operada en el Laboratorio Subterráneo de Canfranc. El gas xenón es un medio ideal pues presenta una serie de características fundamentales para la búsqueda de desintegraciones ββ como son el que se pueda enriquecer fácilmente en su isótopo 136Xe, la facilidad para limpiarlo de impurezas, que presente señales de ionización y centelleo, que su resolución energética intrínseca sea mejor del 0.5% (FWHM a 2.5 MeV) y finalmente que su modo de desintegración 2νββ sea lento. En NEXT-100 cada uno de los planos está dedicado y optimizado para una función distinta. Los electrones de la desintegración ββ ionizan y hacen centellear al xenón a la par. La luz de centelleo es leída por fotomultiplicadores de gran tamaño del cátodo para dar una medida del comienzo del evento (t0). Los electrones de ionización derivan hacia el ánodo bajo la acción de un campo eléctrico moderado (300 - 500 V cm−1) donde son acelerados por un campo mucho más intenso. Esta aceleración genera luz de electroluminiscencia o centelleo secundario de forma proporcional al número de electrones que llegan. Esta luz es leída desde el cátodo para proporcionar la medida de la energía total depositada en el detector. Por su parte el ánodo, instrumentado con SiPMs equiespaciados 1 cm entre ellos, es el encargado de reconstruir la topología de las señales registradas a través de la lectura de esta misma luz de electroluminiscencia. De esta forma, la señal de dos electrones con origen en un mismo vértice y energía total depositada igual a 136Xe Qββ (2458 keV) correspondiente a la señal 0νββ tiene una morfología muy característica que es reconstruida por ambos planos de nuestro detector. Por un lado, el ánodo proporciona una reconstrucción topológica en forma de una única deposición de energía en forma de traza alargada, con una densidad de energía depositada por unidad de espacio recorrido constante, y que presenta áreas de alta deposición energética en sus dos extremos debido a los picos de Bragg. La reconstrucción topológica viene afectada principalmente por la difusión de los electrones de ionización a lo largo de su viaje hasta el cátodo, la difusión de la luz de electroluminiscencia, y de la separación existente entre los sensores. La resolución espacial esperada es de 10 mm en las componentes transversales y de 5 mm en la longitudinal. Por otro lado, el cátodo proporciona una medida de la energía total depositada en el volumen activo del detector que en el caso de nuestra señal será de 2458 keV con una resolución estimada del 0.7% FWHM. Cualquier evento registrado en el detector capaz de imitar la impronta dejada por la señal se considera un evento de ruido y como hemos visto anteriormente, su minimización es clave para maximizar la sensibilidad del detector. La identificación y evaluación de todos ellos bajo distintas circunstancias supone el principal objetivo de esta tesis. En NEXT-100 las principales fuentes de ruido son: • La radioactividad natural presente en todos los componentes del detector. Es la fuente de ruido más común. Especialmente dañinos son los isótopos 208Tl y 214Bi presentes en las cadenas de desintegración del torio y del uranio respectivamente, cuyas gammas de des-excitación poseen una energía cercana a Qββ y que eventualmente pueden presentar una topología similar a la de la señal. La selección de componentes de una radiopureza extrema es por lo tanto esencial en la fabricación de los detectores. • El radón es también un producto intermedio de las cadenas de desintegración, cuyo isótopo 222Rn con origen en el uranio y vida media de 3.8 días es especialmente perjudicial. Hay varios mecanismos por los cuales el radón puede producir eventos de ruido: desde el aire del laboratorio, a la contaminación intrínseca que puede presentar el xenón, así como al degassing de los materiales del detector cercanos al volumen activo. Para la mitigación de este tipo de ruido el LSC ha comprado un sistema que reduce en 4 órdenes de magnitud la presencia de radón en el aire del laboratorio; y eventualmente, en caso de ser necesario, pueden instalarse en el sistema de gas trampas de radón que filtren el xenón del detector. • Los muones cosmogénicos. Un flujo de 3 × 10^−6 cm^−2 s^−1 ha sido medido en el Hall A del LSC, con una energía estimada teóricamente de entre 220 y 245 GeV con altos grados de incertidumbre. El paso de muones por el detector crea una serie de núcleos inestables y de neutrones que generan cascadas electromagnéticas capaces de generar eventos de ruido. Inicialmente, un sistema de centelleadores rodeando el detector puede detectar el paso de los mismos, y aplicando un tiempo muerto tras su paso eliminar el correspondiente ruido. Una segunda contribución de los muones viene de la activación del xenón por neutrones secundarios. La desintegración beta del 137Xe con un valor de Q de 4173 keV, en la práctica introduce un número de eventos en nuestra región de interés, que a la postre no pueden ser vetados y deben ser tenidos en cuenta en los cálculos de ruido del detector. • Los neutrones son partículas muy penetrantes capaces de activar distintos isótopos en las componentes del detector o generar alfas y protones que acaban generando gammas energéticas que pueden producir eventos de ruido. En el caso del LSC, el mayor porcentaje de neutrones tiene su origen en la contaminación de uranio y torio de las rocas que conforman las paredes del laboratorio y el flujo total medido es de 1.38 ± 0.14 × 10^−5 cm^−2 s^−1. Como los muones, los neutrones también pueden generar ruido a través de la activación del xenón. Por suerte, los neutrones son fáciles de vetar. Existen placas comerciales de polietileno dopado con boro al 5% de 20 cm de espesor que los reduce en 3 órdenes de magnitud lo que convierte su contribución en despreciable. Parte del objetivo de esta tesis consiste en la simulación y evaluación de la eficiencia de señal, la actividad de ruido esperada de cada una de las fuentes y con estos datos, estimar la sensibilidad del detector. La simulación realizada es de tipo Monte Carlo y está basada en GEANT4. El análisis consiste en la aplicación secuencial de una serie de algoritmos y cortes encargados de identificar y cuantificar cuantos eventos de señal y de cada tipo de ruido poseen la energía y el patrón característico de las desintegraciones 0νββ. Los resultados obtenidos se resumen en una eficiencia de señal del 32% y un ruido total esperado menor de 4.22 × 10^−4 cts. keV^−1 kg^−1 yr^−1, siendo la mayor contribución la radioactividad natural presente en ambos planos de sensores del detector. Gracias a estos valores, la sensibilidad de NEXT-100 tras 5 años de toma de datos asciende a una semi-vida de 9.85 × 10^25 años al 90% de CL, que se corresponde a una masa del neutrino de Majorana de 57 - 161 meV en función del elemento de matriz nuclear (NME) empleado, obteniendo los mejores límites de sensibilidad publicados hasta la fecha. Los últimos estudios realizados dentro de la colaboración permiten una evolución del detector NEXT-100 a una versión que denominamos alta definición que mejora las prestaciones del detector y la respuesta del análisis. Las principales mejoras y sus consecuencias son: • Alta resolución espacial. La adición de ciertos gases como el CO2 o el He al xenón permite la reducción de la difusión transversal y longitudinal a valores alrededor de 2 mm / sqrt(m), a la par que se mantiene la producción de luz. En la práctica esto supone poder ”ver” los eventos del detector en alta definición lo que propicia una mejor discriminación del ruido en base a su patrón topológico. • Alta resolución energética. Las últimas medidas de resolución energética hechas en NEW para eventos puntuales es ya del 0.5%, y esperamos poder extender dicha resolución a eventos más extensos en el corto plazo. La mejora permite una reducción lineal del ruido procedente del 208Tl y del 137Xe, y en un factor aún mayor del 214Bi. • Deep Neural Networks. Los estudios preliminares llevados a cabo por la colaboración en el uso de DNNs para la discriminación topológica de los eventos presentan ya una mejora sensible respecto al análisis estándar, y cabe destacar que hay bastante margen de mejora en el uso de estas novedosas técnicas. La combinación de estas tres mejoras supone una reducción de la tasa de ruido esperada a un nivel de 6.82 × 10^−5 cts keV^−1 kg^−1 yr^−1 con una eficiencia de señal del 29%. El valor actualizado de sensibilidad al 90% de CL tras 5 años de toma de datos es de 1.48 × 10^26 años y una masa del neutrino de Majorana de 47 - 131 meV. El número total de cuentas de ruido tras 5 años es de 0.6, lo que en la práctica convierte a NEXT-100 alta definición en un detector libre de ruido y que por lo tanto puede ser escalado a la tonelada para poder barrer todo el rango de masas correspondiente a la jerarquía inversa (20 - 50 meV). La extrapolación de la tecnología de la alta definición a un detector de una tonelada de xenón ha sido evaluada de forma somera en el presente estudio. Aún con ciertas licencias en el diseño del futuro detector, una estimación del ruido esperado arroja una actividad de 7.89 × 10^−6 cts keV^−1 kg^−1 yr^−1. Una figura tan baja de ruido permite que el incremento de masa de isótopo del nuevo detector tenga un reflejo casi lineal en la sensibilidad del detector, siendo la nueva sensibilidad tras 5 años de toma de datos de 1.34 × 10^27 años al 90% CL y una masa del neutrino Majorana de 12 - 33 meV, barriendo por completo el rango de masas de la jerarquía inversa. Por último cabe destacar los esfuerzos de la colaboración en la búsqueda de la identificación del ión de bario (Ba++) que se genera tras la desintegración ββ del xenón usando una técnica de microscopía de super-resolución sensible a una sola molécula (SMFI) usada ampliamente en bioquímica. En la práctica supondría la eliminación de toda fuente de ruido a excepción de la desintegración 2νββ. Este escenario permitiría reducir la actividad de ruido del detector a un valor residual de ∼ 5 × 10^−9 cts keV^−1 kg^−1 yr^−1 a la par que permitiría incrementar la eficiencia de detección de señal al 56%. La sensibilidad que se alcanzaría en este caso tras 5 años de toma de datos sería de T0ν = 3.21 × 1027 años al 90% CL y una masa del neutrino Majorana de 10 - 28 meV, con una mejora lineal de la sensibilidad T0ν con la exposición. En el hipotético caso de que la masa de los neutrinos siguiera la jerarquía normal en vez de la inversa, la tecnología necesaria para explorar las masas del neutrino de Majorana correspondientes (∼ 1meV) deberá contemplar inexorablemente el ”barium tagging”.From all the particles conforming the universe, the most common and perhaps the most mysterious ones are neutrinos. Right now billions of these particles are passing through us without perceiving them, and detecting them requires huge detectors buried deep underground. First postulated by Wolfgang Pauli in 1930, they were named in 1934 as ”small neutrons” by Enrico Fermi, alluding to two of their main characteristics: their small mass and their absence of electric charge. In the mid-70s, neutrinos were included in the Standard Model (SM) of particle physics under the premises of: lack of mass and electric charge, only affected by the nuclear weak force, the existence of 3 families with separately preserved leptonic numbers and to be neutrinos distinct from their antiparticles. However, experiments of neutrino oscillations carried out during the last few decades have shown that neutrinos have mass and mix, opening up a new field of physics beyond the SM. One way to accommodate these masses in the theory is that neutrinos could be Majorana particles that is, identical to their own antiparticles, as op- posed to the rest of fermions, and violate the conservation of leptonic numbers. If so, neutrinos could have relationship with the cosmic asymmetry of matter - antimatter via leptogenesis, and could be an elegant explanation of the smallness of their masses through the ”see-saw” mechanism. Faced with this situation, it is easy to understand that nowadays neutrinos are a fashionable field of research, and many experiments worldwide try to shed light on their nature. The most sensitive method to establish the nature of neutrinos is the search for a hypothetical and extremely rare nuclear transition called double beta decay without emission of neutrinos (0νββ) in which a nucleus with atomic number Z and mass number A decays to a nucleus with atomic number Z + 2 emitting two electrons only: X (A,Z) → X (A,Z+2) + e− + e− Although the version of the process with neutrinos emission 2νββ has been observed and measured in several isotopes, the version without neutrinos has not been observed yet. The simplest physical mechanism describing the process is the virtual exchange of a Majorana neutrino, so that all the available energy in the decay (Qββ) is shared between the two electrons emitted. The imprint left by these electrons in the detector is the key signal of the process and therefore, the goal of any experiment aimed to its search. The half-life of this process will entail an indirect measurement of neutrino masses. Current experiments of ββ-decay searches have followed different technological approaches, looking for the best energy resolution and the lowest possible background activity to maximize their sensitivity. Among the most promising technologies are bolometers, TPCs, semiconductors and scintillators. Precisely to this last type belongs Kamland-ZEN, a japanese experiment that making use of 136Xe dissolved in liquid scintillator has established the highest limit to the decay half-life T0ν = 1.07 × 10^26 years. It is worth to note here how 1/2 unlikely the process is, with a half-life 17 orders of magnitude greater than the age of the universe itself, which makes its search a major technological and physical challenge. The NEXT collaboration proposes a detector called NEXT-100 for the search of 0νββ decays, whose sensitivity is the object of study of this thesis. It is an electroluminescent TPC containing 100 kg of xenon gas at 15 bar enriched at 91% for 136Xe, that will be operated at Canfranc Underground Laboratory. Xenon gas is an ideal medium as it presents a series of key characteristics for the search of ββ decays such as easy enrichment in 136Xe isotope, easy cleaning of impurities, presence of ionization and scintillation signals, intrinsic energy resolution better than 0.5% (FWHM at 2.5 MeV) and a very slow 2νββ decay mode. NEXT-100 sensor planes are dedicated and optimized for different functions. Electrons from the ββ-decay ionize and scintillate xenon at the same time. The scintillation light is read by the large size PMTs of the cathode to give a measure of the beginning of the event (t0). Ionization electrons drift towards the anode by the action of a moderate electric field (300 - 500 V cm−1) where they are accelerated by the effect of a stronger electric field. This acceleration generates electroluminescence light or secondary scintillation proportional to the number of arriving electrons. This new light is also read from the cathode to provide the measure of the total energy deposited in the detector. On the other side, the anode instrumented with SiPMs equispaced 1 cm between them, reconstructs the topology of registered events through the reading of the same electroluminescence light. This way, the signal of two-electrons originated from a single vertex with total deposited energy of 136Xe Qββ (2458 keV) corresponding to the 0νββ signal present a very characteristic morphology when being reconstructed by the detector. On one side, the anode provides the topological reconstruction of a single energy deposition in the form of a long track, with a constant density of energy deposition per unit of space, which presents areas of high-energy deposition at both extremes due to the Bragg peaks. The topological reconstruction is mainly affected by the diffusion of ionization electrons along the drift, the diffusion of electroluminescence light, and the sensors pitch. The expected spatial resolution is 10 and 5 mm for transverse and longitudinal components respectively. On the other side, the cathode provides a measure of the total energy deposited on the active volume which in case of our signal, it will be 2458 keV with an estimated energy resolution of 0.7% FWHM. Any event recorded in the detector capable of imitating the imprint left by the 0νββ signal is considered a background event and, as seen above, its minimization is key to maximize the sensitivity of the detector. The identification and evaluation of all of them under different circumstances is the main objective of this thesis. The main background sources for NEXT-100 are: • Natural radioactivity present in all components and materials of the detector. It’s the most common source of background for these type of experiments. Especially damaging for NEXT-100 are the isotopes 208Tl and 214Bi from the thorium and uranium decay chains respectively, whose de-excitation gammas possess an energy close to Qββ and which may eventually present a topology similar to that of the signal. The selection of extremely radiopure components is therefore essential in the manufacture of rare-event searching detectors like ours. • Radon is also an intermediate product of the natural decay chains whose isotope 222Rn, with origin in the uranium and half-life of 3.8 years is particularly harmful. There are several mechanisms by which radon can produce background events: from laboratory air, from the pollution that can present xenon, and from the degassing of detector materials close the active volume. To mitigate these backgrounds, the LSC has purchased a system that reduces by 4 orders of magnitude the presence of radon in laboratory air; and eventually, if needed, radon traps to filter the xe

    Scissor-Hinged Deployable Structures Supported Perimetrally on Rectangular Bases

    Get PDF
    [Abstract] Deployable bar structures on a rectangular base present the problems of closing the ends and longitudinal stabilization. Some proposals have been made to resolve them, mainly by creating mouths, but their application to composite geometries is problematic. On-the-bias deployable structures adequately solve both problems as they are supported around their entire perimeter, have a strong three-dimensional operation and only use load-bearing bars. The text analyses this type of deployable structures, their requirements and possibilities. A study on the combination of polar and translational units in a single deployable structure is then carried out, focusing on the study of on-the-bias deployable structures with perimeter polar modules that allow the effective height of the designs to be increased. Finally, the architectural possibilities of the system are studied, which make it possible to resolve overhangs, vertical openings in the roof, and T- or L-shaped ground plans, guaranteeing the modularity of the system.This research was carried out as a part of the Spanish Research Project on Deployable and Modular Constructions for Situations of Humanitarian Catastrophe, CODEMOSCH (Reference BIA2016-79459-R), funded by the Spanish Ministry of Industry, Energy, and Competitiveness (MINECO)

    Modified Bistable Modules for Bias Deployable Structures

    Get PDF
    Financiado para publicación en acceso aberto: Universidade da Coruña/CISUG[Abstract] Bias deployable grids are meshes with two directions of rotation on the ground plan with respect to the edges. They offer benefits such as three-dimensional resistance with supports around the entire perimeter of a rectangular layout, and consist exclusively of load-bearing scissors as opposed to the usual combinations of load-bearing scissors and bracing scissors. However, their resistance to angular distortion is limited, and they require auxiliary elements to maintain the fully deployed position. Nevertheless, they are very promising solutions for medium-span emergency buildings. This paper proposes a bistable module adapted to bias deployable structures. The geometrical incompatibilities of several modules are analysed together with their behaviour based on the kinematic models that were built, which alternate different types of nodes and different geometries of the perimeter scissors, making it possible to calibrate the level of incompatibility introduced. The dimensions of the nodes are also taken into account. The tests are checked against the results of several series of dynamic calculations.This research was carried out as a part of the Spanish Research Project on Deployable and Modular Constructions for Situations of Humanitarian Catastrophe, CODEMOSCH (Reference BIA2016-79459-R), funded by the Spanish Ministry of Industry, Energy, and Competitiveness (MINECO). Financing of the open access fee: Universidade da Coruña / CISU

    New observations of the extended hydrogen exosphere of the extrasolar planet HD209458b

    Full text link
    Atomic hydrogen escaping from the planet HD209458b provides the largest observational signature ever detected for an extrasolar planet atmosphere. However, the Space Telescope Imaging Spectrograph (STIS) used in previous observational studies is no longer available, whereas additional observations are still needed to better constrain the mechanisms subtending the evaporation process, and determine the evaporation state of other `hot Jupiters'. Here, we aim to detect the extended hydrogen exosphere of HD209458b with the Advanced Camera for Surveys (ACS) on board the Hubble Space Telescope (HST) and to find evidence for a hydrogen comet-like tail trailing the planet, which size would depend on the escape rate and the amount of ionizing radiation emitted by the star. These observations also provide a benchmark for other transiting planets, in the frame of a comparative study of the evaporation state of close-in giant planets. Eight HST orbits are used to observe two transits of HD209458b. Transit light curves are obtained by performing photometry of the unresolved stellar Lyman-alpha emission line during both transits. Absorption signatures of exospheric hydrogen during the transit are compared to light curve models predicting a hydrogen tail. Transit depths of (9.6 +/- 7.0)% and (5.3 +/- 10.0)% are measured on the whole Lyman-alpha line in visits 1 and 2, respectively. Averaging data from both visits, we find an absorption depth of (8.0 +/- 5.7)%, in good agreement with previous studies. The extended size of the exosphere confirms that the planet is likely loosing hydrogen to space. Yet, the photometric precision achieved does not allow us to better constrain the hydrogen mass loss rate.Comment: Accepted for publication in Astronomy & Astrophysics. 5 pages, 3 figure

    Master in water engineering a “semi-attendance” university-specific degree with international participation

    Get PDF
    The Water Engineering Master Course is a university-specific degree at the University of Seville which nowadays can be coursed in two different modalities: “on line” and “semi-attendance”. Its first edition took place at 2000 and since then, the average of graduated students has been of 40 students per course. The semi-attendance mode offers the possibility of being followed in an on-line way from November to June. A Moodle platform provides all the documentation that is required to attend every module, at the end of each one some online questionnaires are also uploaded in order to evaluate the students. Only one of the 10 mandatory modules which make up the course have to be attended in a classroom mode. It takes place during 15 days in July and allows the students to come into contact with the lecturers, professionals of the sector and their own mates as well. During this period both, teachers and students, are lodged in the same residence and all of them have the chance of interchanging experiences in a full teaching-learning process, solving doubts and improving their skills thanks to specific courses, specially designed in function of the lack of knowledge which has been detected during de previous modules, o even, the suggestions received directly from students. Most of the students come from Hispanic countries and in less amount from African and European countries. Actually every July about 80 students and teachers from 25 different countries around the world, meet in Seville to attend this Master. The classes are given in Spanish with translator support if it’s necessary. Different environments, problematic and conditioning factors are studied and a large kind of solutions in water cycle are designed during these days. The requirements to elaborate the final master project are mainly that this one can be used to resolve a real local problem in the student’s origin place and moreover the student can obtain better marks if he/she finds financing to carry it out. In the last 8 years a useful module named “Tools for design” has been included in the program of the Master in order to enable the student in IT, specifically spreadsheets, cad, software for budgeting and measurement, topography and decision support systems. Students who graduate are able to evaluate the most proper technology from a social, technic and economic point of view, as well as, select the most efficient alternatives in order to achieve a sustainable development

    A New Type of Reciprocal Structures: Deployable Yurts for Emergency Situations

    Get PDF
    [Abstract] Deployable structures are a good solution for emergency buildings due to their lightweight and compact characteristics that allow them to be transported to wherever they are needed, especially in emergency situations. Generally, folding structures have been designed with modules comprised of straight bars, forming a scissor joint. They are efficient systems, although they have the disadvantage of being excessively deformable, requiring the use of large and consequently heavier sections. Recently, interesting proposals have been made based on deployable systems with parallel arches and also with arches or frames with multiple intersections. Dome solutions have been proposed with vertical and horizontal axis joints with reciprocal support in the linkages that increase their efficiency. In this document, a new system is proposed for deployable structures based on a similar system of multiple intersections, but composed of straight bars. This allows them to be applied to a traditional and highly effective design, the yurt. The deployable yurts developed have multiple applications for common types of structures used in emergency situations.This study is part of the research project "Deployable and modular constructions for situations of humanitarian catastrophe", funded by the Ministry of Economy and Competitiveness of the Kingdom of Spain with reference BIA2016-79459-R

    Deployable Bundle Modulus Structures With Reciprocal Linkages for Emergency Buildings

    Get PDF
    Financiado para publicación en acceso aberto: Universidade da Coruña/CISUG[Abstract] Deployable structures are an ideal solution for emergency buildings because of their lightness and compactness, allowing them to be transported to wherever they are needed. Generally the most frequent solutions use Scissor-like-Elements (SLE), but in this case the use of bundle modules is proposed. These systems were developed by Pérez Piñero, but have hardly been used since then. The article analyses the problems they present, as well as their advantages in reducing the number of bars and linkages required, which allows for the design of simpler and more economical structures. The geometrical and mechanical conditions of the linkages for triangular and square modules are analysed, as well as the typologies that may arise. A calculation method is also developed to analyse this type of structure. Finally, the performance of a flat grid is analysed in an analytical and experimental way using reciprocal links at its ends. Both theoretical calculations and experimental tests allow us to demonstrate the viability and efficiency of this new type of structure.This study is part of the research project “Deployable and modular constructions for situations of humanitarian catastrophe”, funded by the Ministry of Economy and Competitiveness of the Kingdom of Spain with reference BIA2016-79459-
    corecore